課程資訊
課程名稱
自然語言處理
Natural Language Processing 
開課學期
109-2 
授課對象
電機資訊學院  資訊工程學研究所  
授課教師
陳信希 
課號
CSIE5042 
課程識別碼
922 U0670 
班次
 
學分
3.0 
全/半年
半年 
必/選修
選修 
上課時間
星期四2,3,4(9:10~12:10) 
上課地點
資105 
備註
限學士班三年級以上
總人數上限:55人 
Ceiba 課程網頁
http://ceiba.ntu.edu.tw/1092CSIE5042_nlp 
課程簡介影片
 
核心能力關聯
核心能力與課程規劃關聯圖
課程大綱
為確保您我的權利,請尊重智慧財產權及不得非法影印
課程概述

自然語言處理,又稱計算語言學或人類語言技術,主要的目標是學習了解和產生自然語言的電腦系統,讓電腦像人一樣處理任何形式的對話工作。由於大量知識的機器可讀形式是以自然語言來呈現,很多實際應用應運而生。以文件分析、自動問答、和機器翻譯等三個應用為例。在文件分析,自然語言處理技術由部落格、微博、論壇等不同形式的媒體中,擷取知識以支援多樣化的應用。在自動問答,自然語言處理技術分析問題以了解問題核心,分析內容以擷取正確答案。在機器翻譯,自然語言處理技術分析來源語言,掌握語言之差異,以生成目標語言。本課程分詞彙、語法、語義、語用、和應用等五個面向,教授自然語言處相關理論和技術。 

課程目標
修課同學可以由詞彙、語法、語義、語用、和應用等五個面向,學習自然語言處相關理論和技術,以下分別說明:
(1) 詞彙:Collocations and Multi-Word Expressions、N-grams and Smoothing、Neural Probabilistic Language Model and Word Embeddings, HMM Models、Part of Speech Tagging
(2) 語法:Syntax and Grammars、Syntactic Parsing、Statistical Parsing、Dee[ Neural Networks for Parsing, Dependency Parsing Using Neural Network
(3) 語義:Lexical Semantics、Computational Lexical Semantics、Semantic Representation
(4) 語用:Computational Discourse、Chinese Discourse Parsing and Its Applications
(5) 應用:Opinion Mining and Sentiment Analysis 
課程要求
本課程評量包括期中考、期末考、和學期計畫三部分,引導同學學習自然語言處理理論和技術,並設計應用系統。 
預期每週課後學習時數
 
Office Hours
 
指定閱讀
待補 
參考書目
(1) Daniel Jurafsky and James H. Martin, Speech and Language Processing: An
Introduction to Natural Language Processing, Computational Linguistics and
Speech Recognition, Third Edition. December 30, 2020 draft.
(https://web.stanford.edu/~jurafsky/slp3/)
(2) Jacob Eisenstein, Introduction to Natural Language Processing, The MIT
Press, 2019.
(3) Neural Network Methods for Natural Language Processing, Synthesis
Lectures on Human Language Technologies, Morgan & Claypool publishers, 2017.
(4) Christopher D. Manning and Hinrich Schutze, Foundations of Statistical
Natural Language Processing, MIT Press, 1999.
(5) Deep Learning Papers for Natural Language Processing 
評量方式
(僅供參考)
   
課程進度
週次
日期
單元主題
第1週
2/25  Lecture 1. Introduction 
第2週
3/4  Lecture 2. Words, Collocations and Multiword Expressions 
第3週
3/11  Lecture 3. N-Gram Language Models, Smoothing and Discounting 
第4週
3/18  Lecture 4. Neural Language Model and Word Embedding 
第5週
3/25  Lecture 5. Sequence Labeling for Parts of Speech and Named Entities 
第6週
4/1  溫書假(調整放假) 
第7週
4/8  Lecture 6. Deep Learning Architecture for Sequence Processing;
Lecture 7. Machine Translation and Encoder-Decoder Models 
第8週
4/15  (1) AI CUP 醫病決策預判與問答 (邀請講者:成大高宏宇教授)
(2) Term Project 說明 
第9週
4/22  期中考 
第10週
4/29  Lecture 7. Machine Translation and Encoder-Decoder Models (pages 14-31)
Lecture 8. Contextual Embeddings
Lecture 9. Constituency Grammars and Parsing 
第11週
5/6  Lecture 10. Statistical Constituency Parsing
Lecture 11. Deep Neural Networks for Parsing 
第12週
5/13  Lecture 12. Dependency Parsing
Lecture 13. Word Senses and WordNet (pp. 1-22) 
第13週
5/20  Lecture 14. Semantic Role Labelling and Argument Structure (pp. 1-73) 
第14週
5/27  Lecture 15. Representation of Sentence Meanings (pp. 1-31)
Lecture 16. Computational Discourse
Lecture 17. Chinese Discourse Parsing and Its Applications